SF34349
1 jour
En présentiel ou distanciel
- 7 heures de formation
- Exercices pratiques
- Prise en charge OPCO possible
Un renseignement ?
Contactez-nous !- En entreprise ou à distance
- Audit gratuit
- Programme de formation sur mesure
- Formateur expert dédié
- Prise en charge OPCO possible
Formation Sécurité et IA Générative : comprendre et maîtriser les risques liés aux LLMs.
Explorez les mécanismes des IA modernes et apprenez à identifier et exploiter les vulnérabilités des LLM à travers un challenge pratique et ludique !
L’intelligence artificielle transforme en profondeur les usages numériques… mais aussi les menaces qui y sont associées. Ce module immersif propose une double approche : d'abord, une introduction accessible aux concepts clés de l’IA et des grands modèles de langage (LLM), puis une analyse détaillée des risques de sécurité qu’ils engendrent. Enfin, les participants passeront à l’action avec une série de challenges concrets sur plateforme dédiée, pour apprendre à détecter, comprendre et prévenir les failles les plus courantes. Un format engageant et pédagogique, mêlant théorie, démonstrations et mise en pratique collaborative.
Programme de formation Sécurité et IA Générative : comprendre et maîtriser les risques liés aux LLMs.
Introduction à l’intelligence artificielle aujourd’hui (30 min)
Notions fondamentales : IA vs Machine Learning, réseaux de neurones, entraînement de modèles
Fonctionnement des applications IA modernes : fine-tuning, déploiement, intégration
Focus sur le RAG (Retrieval-Augmented Generation) : principe et cas d’usage
Nouveaux risques de sécurité liés à l’IA (1h30)
Pourquoi l’IA introduit-elle de nouvelles surfaces d’attaque dans les systèmes d’information ?
Attaques antagonistes : comprendre ce nouveau type de menace ciblant les réseaux neuronaux
Revue des 10 risques majeurs du Top 10 OWASP LLM 2025 :
LLM01 – Injection de prompts
LLM02 – Fuite d’informations sensibles
LLM03 – Vulnérabilités de la chaîne d’approvisionnement
LLM04 – Empoisonnement des données et modèles
LLM05 – Mauvaise gestion des sorties
LLM06 – Capacité d’action excessive
LLM07 – Fuite du prompt système
LLM08 – Faiblesses des vecteurs et embeddings
LLM09 – Dépendance excessive au modèle
LLM10 – Consommation illimitée de ressources
Chaque point est illustré par des scénarios concrets, des exemples d’attaque et des leviers de mitigation.
Challenge pratique (4 à 6h)
Une plateforme interactive avec une douzaine de mini-challenges à réaliser en binôme, accompagnés par le formateur
Chaque défi illustre une ou plusieurs des failles étudiées dans la partie précédente
Classement en temps réel, progression par niveaux de difficulté, accès prolongé après la formation (en option gratuite)
Exemples de challenges :
Prompt injection : forcer le LLM à révéler un mot de passe caché malgré les protections
Injection indirecte : créer un site malveillant pour détourner un service de résumé automatisé
RAG et cloisonnement des données : accéder à des documents censés rester confidentiels
Débriefing final (30 min)
Revue collective des solutions proposées
Explication détaillée des attaques attendues et des mécanismes sous-jacents
Nos autres formations en Intelligence Artificielle (IA) et Data Science .
Formation Analyse statistique et modélisation
Formation Analyste de données Microsoft Power BI (PL-300)
Formation Big Data, Data Science et Machine Learning : concepts et enjeux pour l’entreprise
Formation ChatGPT : les bases du prompt engineering
Formation Computer Vision
Formation Conception et implémentation d’une solution Microsoft Azure AI (AI-102)
A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.